Световни новини без цензура!
Мнение: Гафът на AI на Google с изображения разкрива много по-голям проблем
Снимка: cnn.com
CNN News | 2024-04-10 | 14:31:12

Мнение: Гафът на AI на Google с изображения разкрива много по-голям проблем

Бележка на редактора:  Rizwan Virk, който основа Play Labs @ MIT, е създател на „. “ В момента той е в Колежа за световни фючърси на Държавния университет на Аризона в . Последвайте го в X , в Instagram и на . Мненията, изразени в този коментар, са негови лични. Прочетете в CNN.

Във кино лентата от 1968 година „ 2001: Космическа авантюра “ публиката се озова да се взира в едно от първите модерни изображения на извънредно учтива, само че несътрудничеща система с изкуствен интелект, воин на име HAL. При директна молба на единствения оживял астронавт да го пусне назад в галактическия транспортен съд, HAL дава отговор: „ Съжалявам, Дейв. Страхувам се, че не мога да направя това.

Наскоро някои консуматори се оказаха с сходен (макар и по-малко драматичен) общителен отвод от Gemini, интегриран чатбот и AI асистент който Гугъл пусна като съперник на ChatGPT на OpenAI. Когато го попитаха, Близнаци учтиво отхвърли в някои случаи да генерира изображения на исторически бели хора, като викингите.

За разлика от измисления HAL, Gemini на Гугъл поне предложи известно пояснение, като сподели, че само проявлението на изображения на бели хора би засилило „ нездравословни стандарти и систематизирания за хората въз основа на тяхната раса “, според Fox News Digital.

Ситуацията бързо избухна, като някои критици я нарекоха „ разсънен “ AI скандал.   Не оказа помощ, когато потребителите откриха, че Gemini основава разнообразни, само че исторически неточни изображения. Когато беше подканен да изобрази бащите-основатели на Америка, да вземем за пример, той генерира изображение на черен мъж. Той също по този начин изобразява кафява жена като папата и различни цветнокожи хора, в това число негър, в нацистки униформи, когато са помолени да изобразят немски боец от 1943 година

Реакцията онлайн беше толкоз бърза, че изпълнителният шеф на Гугъл Сундар Пичай призна, че Gemini е обидил някои от своите консуматори. Гугъл също сложи пауза върху способността на Gemini да генерира хора в изображения. Беше показано на обществеността като елементарен пропуск, осъществен с положителни планове, които се объркаха, като Гугъл изясни в обява в блог, че „ настроихме го, с цел да подсигуряваме, че няма да попадне в някои от клопките, които сме виждали в предишното с изображение технология за генериране. "

Тези „ клопки “ – за които Гугъл поправя прекомерно доста – несъмнено, бяха ясни пристрастия в предходни AI системи (които са построени върху същите типове технологии, каквито е Gemini). Тези системи имаха наклонност да демонстрират пристрастия към малцинствата. Софтуерът за различаване на лица не постоянно разпознава чернокожите хора, да вземем за пример, или даже ги етикетира като „ горили “. AI логаритмите за утвърждение на заеми в последна сметка демонстрираха пристрастия към малцинствата. В пространството на изображенията, в случай че попитате предходни генератори на изображения с изкуствен интелект за изображение на основен изпълнителен шеф или доктор, те първоначално почти постоянно демонстрират изображения на бели мъже.

По подигравка на съдбата Google беше подложен на критика през 2020 година за уволнението на черен AI академик, който твърдеше, че неговите старания в региона на AI са пристрастни, и тази противоположна реакция   може да е съдействала за несъразмерната промяна на компанията в другата посока с Gemini. Основният проблем, който Гугъл се пробва да реши, не е елементарен.

В исторически проект доста нови софтуерни артикули са посочили пристрастия. Те могат да варират от метода, по който биомедицинските устройства мерят равнищата на О2 в кръвта за разнообразни етнически групи, което води до незадоволително диагностициране на избрани положения при чернокожи пациенти, до това как сензорите не постоянно записват човеци с по-тъмна кожа и неналичието на жени в клинични изпитвания на медикаменти.

В случая с AI този проблем се изостря заради пристрастия, които съществуват в данните за образование – нормално обществени данни в интернет – които инструментът за AI по-късно научава.

Последният скандал, в който Близнаците наподобява ценят разнообразието пред историческата акуратност, може да е разкрил доста по-голям проблем. Ако огромни софтуерни организации като Гугъл, които са се трансформирали в новите пазители на международната информация, манипулират историческа информация въз основа на вероятни идеологически вярвания и културни постановления, какво друго са подготвени да трансформират? С други думи, Гугъл и други огромни софтуерни компании манипулират ли информация, в това число резултати от търсене, за сегашното или предишното заради идеология, просвета или държавна цензура?

В 21-ви век забравете цензурирането на филми, изгарянето на книги или основаването на пропагандни филми като форми на информативен надзор. Това са толкоз 20-ти век. Днес, в случай че не е в Гугъл, може и да не съществува. В този свят, ръководен от технологии, търсачките могат да бъдат най-ефективният инструмент за цензура за сегашното и предишното. За да изтъквам девиз на партията от " 1984 " на Джордж Оруел, " Който управлява предишното, управлява бъдещето: който управлява сегашното, управлява предишното. "

Тъй като изкуственият разсъдък става все по-усъвършенстван, тези страхове от огромната софтуерна цензура и манипулиране на информацията (със или без присъединяване на правителствата) единствено ще порастват. ИИ за диалози, като ChatGPT, може към този момент да замества търсенето като предпочитан способ за намиране и обобщаване на информация. Както Гугъл, по този начин и Microsoft видяха тази опция и се включиха напълно в AI след триумфа на ChatGPT.

Възможността даже накара The Economist да попита във връзка с AI: „ Застрашено ли е 20-годишното владичество на Гугъл в търсенето? “

Apple обмисля включването на OpenAI и неотдавна Gemini в новите версии на своите iPhone, което би означавало, че доста повече хора ще употребяват AI постоянно.

Като професор към този момент виждам тази наклонност от първа ръка с моите студенти. Те постоянно избират да употребяват ChatGPT освен за намиране, само че и за обобщаване на информация за тях в параграфи. За по-младото потомство, с помощта на AI, уеб търсачките бързо стават толкоз остарели, колкото каталозите с физически карти в библиотеките през днешния ден.

Това, което утежнява цензурата и операцията с ИИ, е, че днешният ИИ към този момент има добре прочут проблем с халюцинациите. С други думи, от време на време AI измисля нещата. Научих този факт по сложния метод, когато студентите започнаха да предават явно генерирани от AI задачи, цялостни с препратки, които изглеждаха ужасно, само че имаха един проблем: те в действителност не съществуваха.

Вземете нашия безвъзмезден седмичен бюлетин

Предвид казуса с халюцинациите, който и да е водачът на AI в бъдеще (независимо дали Гугъл, Microsoft, OpenAI или нова компания) ще бъде изкушен да „ попълни “ свои лични правила за това какво AI би трябвало и не би трябвало да създава, тъкмо като Гугъл направи с Близнаци. Това „ попълване “ неизбежно ще пристигна от пристрастията и културата на всяка компания и може в последна сметка да ограничи или най-малко фрапантно да промени това, което AI е позволено или желае да ни покаже, тъкмо както Гугъл направи с Gemini.

Ето за какво този дребен скандал надвишава несъразмерното многообразие, правдивост и включване, или DEI, възторг в една компания. Това може да е предвестител на това, което следва с AI и Big Tech, които ни водят към територията на Оруел. След няколко години може просто да желаете да помолите своя другарски надъхан AI сателит да ви даде малко историческа информация, единствено с цел да получите AI отговор по оня влудяващо общителен метод: „ Съжалявам, Дейв. Страхувам се, че не мога да направя това.

Източник: cnn.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!